Die Suchmaschinenoptimierung gilt zu Recht als eine der wichtigsten Disziplinen im Onlinemarketing. Suchmaschinen wie Google und Bing generieren einen erheblichen Anteil des Websitetraffics fast aller größeren Seiten. Darüber hinaus gelten Besucher, die über eine Suchanfrage auf eine Website gelangen, als besonders wertvoll, denn sie weisen eine besonders hohe Conversion-Wahrscheinlichkeit auf und verursachen dabei keine Kosten.
Während andere Kanäle – besonders die bezahlte Suchmaschinenwerbung und die Displaywerbung – inzwischen fast vollständig automatisiert abgewickelt werden können, ist die SEO-Arbeit in vielen Fällen noch recht manuell. Gleichzeitig ist gerade die technische Suchmaschinenoptimierung sehr datengetrieben. Durch diesen scheinbaren Widerspruch entsteht ein großer Bedarf an Automatisierung im Bereich der SEO-Analyse: Es gibt eine große Anzahl von Daten, die möglichst effizient ausgewertet werden soll, um dem SEO-Spezialisten die Grundlage seiner nächsten Arbeitsschritte zu liefern. In vielen Fällen ist daher bis heute Microsoft Excel das wichtigste Arbeitsinstrument eines SEO-Experten. Doch die rasant steigende Datenmenge stellt eine große Herausforderung dar, und auch die Automatisierung ist bei diesen Prozessen oft eher mäßig intensiv ausgeprägt.
Vom lokalen Rechner in die Cloud
Große Datenmengen, automatisierte Prozesse: Das alles klingt verdächtig nach Bedarf an einer stabilen Cloud-Lösung. Die Google Cloud Platform erweist sich mit ihren Lösungen als ein geeignetes Mittel für den SEO-Alltag (Abb. 1). Zumindest wenn man die richtigen Tools aus dem Pool der mehr als neunzig Anwendungen gefunden hat. Historisch gewachsen ist die Google Cloud Platform aus verschiedenen Projekten, die die Entwickler für gewöhnlich einst für interne Zwecke programmierten, bevor daraus öffentlich zugängliche Produkte wurden. Dadurch haben die einzelnen Programme eine konkrete Ausrichtung und lassen sich zielgerichtet und effizient für bestimmte Aufgaben nutzen. Während die einzelnen Anwendungen sehr gut dokumentiert sind, meist ausführlich getestet werden können und in manchen Fällen ohnehin kostenfrei zur Verfügung stehen, ist es oft nicht leicht, das Tool zu identifizieren, das für die entsprechende Aufgabe am besten geeignet ist. Einen besseren Einstieg als die Produktliste zu durchforsten, bieten die Cloud-Trainings- und Zertifizierungsprogramme (zum Beispiel der kostenlose Qwiklabs-Kurs GCP Essentials).
Abb 1: Die Console der Google Cloud Platform
Data Warehouse in der Cloud
Das Erstellen einer Datenbank in der Cloud ist essenzieller Bestandteil einer Datenstrategie, die flexibel und gut zugänglich sein soll. Innerhalb der Google Cloud Platform gibt es mehrere Tools, mit denen man Daten strukturieren und speichern kann. Als besonders gut geeignet erweist sich aus mehreren Gründen die Cloud-Datenbank Google BigQuery (Abb. 2). Zwar erscheint sie für die Datenmengen, mit denen im SEO-Bereich hantiert wird, fast schon überdimensioniert (innerhalb der Cloud-Platform-Kategorisierung fällt BigQuery auch nicht in den Bereich „Speichern“, sondern in den Bereich „Big Data“). Doch gerade die gute Anbindung an andere Tools der Google Cloud – wie das Google Data Studio und Cloud Storage – in Kombination mit einem sehr kompetitiven Pricing machen BigQuery zur guten Wahl zum Beispiel für das Speichern der Daten aus der Google Search Console. Da die Google Search Console selbst nur Daten der letzten 500 Tage speichert, empfiehlt es sich, die Daten täglich zu exportieren und in einer eigenen Datenbank zu speichern. Bei einer Abfrage auf Query-, Page-, Date-, Country-, Searchtype- und Device-Ebene ergeben sich dabei leicht täglich etwa 50 000 Zeilen an Daten, die sich über das GSC-API bequem abrufen und in BigQuery einfügen lassen. Neben dem täglichen Datenexport ist es zusätzlich hilfreich, die Suchanfragen oder Landingpages für weitere Auswertungen aufzubereiten und zu clustern. In Verbindung mit weiteren Daten aus anderen Quellen lassen sich darüber hinaus Analysen erstellen, die ohne das entsprechende Cloud-Set-up nicht möglich wären.
Abb 2: Das Werkzeug BigQuery aus der Google Cloud Platform
Visualisieren heißt verstehen
Das Bereitstellen von vorberechneten Daten ist bereits eine große Erleichterung für die SEO-Arbeit, aber für die effiziente Analyse bedarf es noch weiterer Aufbereitungen. Die Daten visuell ansprechend darzustellen, gelingt dabei erfahrungsgemäß sehr gut mit dem Google Data Studio (Abb. 3). Das Visualisierungstool, das Google jedem Nutzer kostenfrei zur Verfügung stellt, überzeugt durch eine sehr intuitive Bedienbarkeit und gute Datenanbindungen an fast alle Google Tools, insbesondere BigQuery. Natürlich können auch andere Datenbanken und externe Datenquellen angeschlossen werden. Sind die Daten einmal verbunden, können entsprechend interaktive Dashboards erstellt und geteilt werden. Zwar sind noch längst nicht alle Funktionen der bekannteren Konkurrenztools vorhanden, doch werden dem Tool fast wöchentlich neue Funktionen hinzugefügt. Ohnehin liegt der größte Vorteil eher in der sehr intuitiven Bedienbarkeit und der optischen Qualität der grafischen Darstellungsmöglichkeiten. Da sich auch aus den Data-Studio-Reports heraus Daten zum Beispiel im .csv-Format herunterladen lassen, genügt ein gut strukturierter Report in der Regel, um alle Anforderungen des SEO-Experten zu erfüllen. Das Data Studio Dashboard kann somit wie ein Toolinterface verstanden werden, das Daten eben nicht nur aufbereitet, sondern die Grundlage der SEO-Arbeit darstellt. Auf die dahinterliegenden Datenbanken und Strukturen muss der SEO-Anwender dann eigentlich gar keinen Zugriff erhalten, weil alle Informationen aufbereitet vorliegen und direkt in konkrete Handlungen umgesetzt werden können.
Abb 3: Daten visualisieren mit dem Google Data Studio
ETL-Prozesse in der Cloud
Das Speichern und die Aufbereitung der Daten sind mit den Google-Cloud-Platform-Anwendungen BigQuery und Data Studio einfach möglich. Doch vorher wollen die Daten natürlich generiert werden. Für die notwendigen ETL-Prozesse bietet die Google Cloud gleich mehrere Anwendungen, die sich nach den jeweiligen Anforderungen und Datenmengen unterscheiden. Den einfachsten Weg bietet der Google BigQuery Data Transfer Service. Allerdings funktioniert er bisher nur für einen Teil der Daten aus der Google-Familie, beispielsweise aus Google Ads oder YouTube. Wer lieber selbst programmiert, kann auch mit der Google App Engine in den wichtigsten gängigen Programmiersprachen entsprechende Jobs schreiben und als Cron Job regelmäßig ausführen. Innerhalb der Google Cloud Console, dem zentralen Interface, aus dem sich alle Google Cloud Tools steuern und monitoren lassen, lässt sich dann aufzeigen, ob Jobs erfolgreich waren oder wiederholt werden müssen.
Für einfache Tasks bieten sich Google Cloud Functions an, wenn statt komplexer Aufgaben nur einzelne Funktionseinheiten ausgeführt werden müssen. Das Anlegen erfordert keine komplexe Serverstruktur, der Code wird nach Bedarf in der Cloud ausgeführt.
Sollte die Datenmenge in den Big-Data-Bereich reichen oder sollen aufwendige Real-Time-Strukturen umgesetzt werden, lohnt ein Blick in Google Data Flow. Serverressourcen werden dabei nach Bedarf zugeteilt, sodass die Übertragungskapazitäten praktisch unbegrenzt sind. Dass in der SEO-Analyse komplexe Strukturen notwendig sind, ist eher unwahrscheinlich. Gerade Real-Time-Daten sind meist nicht notwendig, da die meisten SEO-Veränderungen eine mittel- bis langfristige Wirkung zeigen.
Datenerweiterung durch Machine Learning
Wenn die Datenbank konfiguriert ist, die Daten automatisch einfließen und dem SEO-Experten ein entsprechendes Dashboard-Interface zur Verfügung steht, ist tatsächlich schon sehr viel erreicht. Doch das muss noch nicht das Ende der Bemühungen sein. Gerade im Bereich der Suchmaschinenoptimierung geht es um passende Inhalte und Nutzerintentionen. Um dabei skalierbare Resultate zu erzielen, ist der Einsatz von komplexen, selbstlernenden Algorithmen notwendig, und auch dafür bietet die Google-Cloud-Plattform verschiedene Dienste. Als fertiges Produkt bietet das Natural Language API die Möglichkeit, zum Beispiel die Suchanfragen nach Inhalten und Stimmungen zu kategorisieren. Das basiert auf den Algorithmen, die Google selbst erstellt und nutzt. Und wenn auch hier dem eigenen Algorithmus mehr vertraut wird: Mit Cloud AutoML und Cloud TPU können auch eigene Modelle trainiert und angewandt werden, und selbst für die Anbindung an TensorFlow gibt es eine eigene Cloud ML Engine.
Ideen für den Einstieg
Wie erwähnt, ist es ein guter Einstieg, die Daten aus der Google Search Console täglich zu exportieren, auch weil das API der Google Search Console sich besonders einfach bedienen lässt. Eine sehr sinnvolle Erweiterung der Daten ermöglicht das API von Google Ads. Mit einem Search Query Performance Report lassen sich auch aus dieser Quelle Daten auf Suchanfragenebene generieren, die dann an die Search-Console-Daten gematcht werden können. Zusammengeführt lassen sich unter anderem Lücken in der SEO-Abdeckung (auch für einzelne Keywords) gezielt identifizieren. Wenn beispielsweise ein sehr teures Keyword nur mit Google Ads erreicht wird, hätte derselbe Begriff auch für die organische Suche eine hohe Relevanz und sollte vom SEO-Team angegangen werden. Umgekehrt könnten bezahlte Anzeigen besonders dort eingesetzt werden, wo es schwierig scheint, kurzfristig eine gute organische Position zu erreichen.
Die nächste Ebene der Integration könnten Performancedaten aus dem Webanalysetool sein. Seiten, die in der Google Search Console Klicks erzielen, matchen mit Landingpages in der Webanalyse. Dadurch können einzelnen Keywords auch Conversions und Umsätze zugeordnet werden, was der Potenzialanalyse einzelner Suchanfragen sogar einen monetären Wert gibt. Eine erwartete Verbesserung der Keywordposition sollte in einer erhöhten Klickrate resultieren, was in Verbindung mit der bekannten Conversion-Rate zu einer konkreten Umsatzprognose genutzt werden kann.
Die Verbesserung der Klickrate ist abhängig von der Art der Suchanfrage. Eine gute Kategorisierung der Suchanfragen verbessert die Genauigkeit der Vorhersage. Diese Kategorisierung kann eine einfache manuelle Unterscheidung sein, wie die zwischen Brand und Non Brand Keywords. Besser geeignet ist aber eine Kategorisierung, die sich auf das Machine Learning stützt, da diese deutlich granularer ist.
Weitere Einsatzmöglichkeiten wären, Informationen aus den Logfiles, Crawling-Daten oder Daten von externen SEO-Tools zu ziehen, um beispielsweise Informationen über konkurrierende Websites zu erlangen. Eine große Anzahl an Tools und Daten steht zur Verfügung und wartet nur darauf, mit ein paar guten Ideen effizient aufbereitet zu werden.